1
Rappresentazione e Ragionamento della Conoscenza (KRR)
PolyU COMP5511Lezione 4
00:44

INTRODUZIONE

Benvenuti a Lezione 4: Rappresentazione e Ragionamento della Conoscenza (KRR). In questo modulo, affrontiamo la sfida fondamentale dell'Intelligenza Artificiale: come modellare il mondo simbolicamente. Non è sufficiente che una macchina memorizzi dati; deve ragionaresu di esso. Esploreremo come i sistemi di IA rappresentano le informazioni logicamente per eseguire inferenze, andando oltre il semplice pattern matching.

SEZIONE 1: Fondamenti Storici

Attraverseremo il panorama tecnico dalla classica Logica Proposizionale e Logica del Primo Ordine alle strutture rigide ma potenti dei legacy Sistemi Esperti. Questi sistemi hanno fornito le prime macchine "pensanti" capaci di deduzione logica.

SEZIONE 2: Convergenza Moderna

Infine, arriviamo all'avanguardia dell'IA moderna, esaminando Knowledge Graph e AI Neuro-Simbolica. Questo campo emergente mira a fondere la rigorosa spiegabilità della logica con le capacità di apprendimento adattivo delle reti neurali.

Avviso sul Contesto
A differenza delle reti neurali che funzionano come "scatole nere", KRR si concentra sui modelli "white-box" dove il percorso di ragionamento è esplicito, verificabile e interpretabile.
Esempio di Sintassi della Logica Simbolica
1
Fatto: Genitore( Alice, Bob )
2
Fatto: Genitore( Bob, Charlie )
3
Regola: x, y, z( Genitore(x, y) Genitore(y, z) Nonno(x, z))
4
Inferenza: Nonno( Alice, Charlie )
Studio di Caso: Il Diagnostico Medico
Leggi lo scenario sottostante e rispondi alle domande.
I primi sistemi di IA come MYCIN utilizzavano il KRR per diagnosticare infezioni del sangue. A differenza del ML moderno che indovina basandosi sulle statistiche, MYCIN utilizzava oltre 600 regole derivate dai medici.
Q1
1. Perché è spiegabilità critica in un sistema KRR medico rispetto a un classificatore di immagini generico?
Risposta:
In medicina, i medici richiedono un percorso verificabile (la catena di regole utilizzate) per fidarsi di una diagnosi. Una previsione "black-box" è inaccettabile per decisioni critiche. Il KRR fornisce questo percorso di ragionamento esplicito.
Q2
2. Come gestisce il sistema una regola come "Se la febbre è alta, ALLORA l'infezione è probabile"?
Risposta:
Questa regola è rappresentata simbolicamente (ad es., HighFeverLikelyInfection ). Il Motore di Inferenza controlla se il fatto HighFever is true in the patient's record; if so, it asserts LikelyInfection come una nuova conclusione.
Q3
3. Identifica i limiti della codifica manuale di queste regole (Il Collo di Bottiglia dell'Acquisizione della Conoscenza).
Risposta:
La limitazione principale è il Collo di Bottiglia dell'Acquisizione della Conoscenza: la difficoltà e il tempo richiesto agli esperti umani per articolare tutta la loro conoscenza in regole formali ed esplicite. La conoscenza del mondo reale è spesso ambigua e troppo vasta per la codifica manuale.